大约到2020年,电脑的主机不会再使用晶片与半导体,而是充满液体。这是量子电脑,它应用的不再是现实世界的物理定律,而是玄妙的量子原理。由年轻的华裔科学家艾萨克·庄领衔的IBM公司科研小日前在斯坦福大学向参加“热点芯片2000”计算机技术会议的专家展示了迄今最尖端的“5比特量子电脑”。
据艾萨克·庄介绍,量子电脑是利用原子所具有的量子特性进行信息处理的一种全新概念的计算机。科学家早已注意到原子是个天然的计算机。原子会旋转,而且不是向上就是向下,这正好与数位科技的0与1完全吻合。
既然原子可以同时向上并向下旋转,如果把一群原子聚在一起,它们不会像今天的电脑进行线性运算,而是同时进行所有可能的运算。只要40个原子一起计算,就相当于今天一部超级电脑的性能。专家表示,如果有一个包含全球电话号码的资料库,找出一个特定电话号码,一部量子电脑只要27分钟,而同样的工作,要是交给十台前两年名噪一时的IBM“深蓝”超级计算机,也至少需要几个月的时间。量子电脑以处于量子状态的原子作为中央处理器和内存,其运算能力比目前以微型晶体管电路为基础的传统计算机快几亿倍!
尽管量子电脑的研制工作现在还处于十分原始的阶段,艾萨克·庄小组制成的实验模型也仅是装着5个氟原子的一组玻璃试管,但人们坚信量子电脑终将取代传统模式的计算机。
计算机界有一条名为“摩尔法则”的金科玉律:随着微电子制造水平的不断提高,计算机中央处理器(CPU)硅芯片的精密程度每18个月就要翻一番。按照这一规律,计算机问世50多年来,运算速度已提高了约10亿倍,而CPU集成电路的线宽目前也已细微到只有0.2微米。最迟到2020年,电路线宽将不可避免地达到仅有单个分子大小的物理学极限,这就意味着传统计算机的发展将走入穷途末路。然而人类对于信息处理更快、更强的追求却是永无止境的,向更微观的原子世界进军,开发量子计算技术将是惟一的出路。
70年代,美国加利福尼亚科学研究所的著名量子学家费因曼博士就敏锐地发现原子是超凡的“计算天才”,从而大胆地提出了量子计算的构想。根据量子论原理,原子具有在同一时刻处于两个不同位置,又同时向上下两个相反方向旋转的特性,称为“量子超态”。而一旦有激光或磁力等外力干扰,模糊运动的原子又可以马上归于准确的定位。这种似是而非的混沌状态与人们熟知的常规世界相矛盾,但如果利用其表达和存储信息却能发挥出瞬息之间千变万化而又万变不离其宗的神奇功效。
美、德等国物理学家与计算机专家苦心钻研,终于在90年代初研制出单原子的“1比特”量子计算元件。其基本方法是:将原子冷却到接近绝对零度,并与辐射、电波等一切能源隔绝,当原子自行进入量子超态后再用核磁共振对其进行定位控制。近几年,IBM的美籍华裔专家艾萨克·庄与其他科学家合作,先后在前年和去年成功开发了2原子和3原子的量子计算元件。
艾萨克·庄雄心勃勃地指出了量子电脑的巨大发展潜力:在未来5至10年内将诞生十比特甚至几十比特的量子电脑,再过二三十年,量子电脑将正式成为传统计算机的终结者。到那时,要彻底搜索遍整个互联网来查找某个讯息只需片刻时间。
量子电脑何以拥有如此神奇的魔力呢?
我们现在使用的传统电脑是通过硅芯片上微型晶体管电位的“开”和“关”状态来表达二进位制的0和1,从而进行信息数据的处理和储存。每个电位只能处理一个数据,非0即1,许多个电位依次串连起来,才能共同完成一次复杂的运算。这种线性计算方式遵循普通的物理学原则,具有明显的局限性。而量子电脑的运算方式则建立在原子运动的层面上,突破分子物理的界限,进入了绝对自由境界。
量子电脑中的原子被称作“量子比特”。由于它具有在同一时间处于两个不同位置的“特殊才能”,一个量子比特可以同时表达0和1。从储存数据的角度说,量子比特的能力是晶体管电子位的两倍。而当许多个量子状态的原子缠结在一起时,它们又因量子位的“叠加性”,可以同时一起展开“并行计算”,从而使其具备超高速的运算能力。与传统计算机线性运算相比,这种并行计算方式好比万只飞鸟升上天空与万只蜗牛排队过独木桥的区别。
艾萨克·庄博士认为,在可以预见的未来,量子电脑的神威可能首次应用于大量数据查索和复杂的加密解密领域。目前在计算机领域,有一种以巨大数字的质因数分解极为困难作为前提的“RSA公开加密系统”正在被广泛使用。对一个长达400位的密码数字进行质因数分解,即便使用世界上运算速度最快的巨型电脑也要10亿年。而如此繁重的工作,如果用量子电脑来做,却只要不到一年时间就可完成。一个量子密码可以被用来保护等级最高的国家机密和企业机密,使之免受电脑黑客的入侵。假如功能异常强大、可以轻易破译最复杂传统数学密码的量子电脑被开发出来,量子密码将变得至关重要。
据中国科技大学物理系郭光灿教授介绍,量子计算机的概念源于对可逆计算机的研究,而研究可逆计算机是为了克服计算机中的能耗问题。早在六七十年代,人们就发现,能耗会导致计算机芯片的发热,影响芯片的集成度,从而限制了计算机的运行速度。朗德尔最早考虑了这个问题,他考察了能耗的来源,指出:能耗产生于计算过程中的不可逆操作。例如,对两比特的异或操作,因为只有一比特的输出,这一过程损失了一个自由度,因此是不可逆的,按照热力学,必然会产生一定的热量。但这种不可逆性是不是不可避免的呢?事实上,只要对异或门的操作进行简单改进,即保留一个无用的比特,该操作就变为可逆的。因此物理原理并没有限制能耗的下限,消除能耗的关键是将不可逆操作改造为可逆操作。
郭光灿说,与经典计算机相比,量子计算机最重要的优越性体现在量子并行计算上。经典计算机只存在指数算法的问题,量子计算机却存在量子多项式算法,这是对经典计算极大的扩充,使经典计算成了一类特殊的量子计算。量子计算最本质的特征为量子叠加性和相干性。量子计算机对每一个叠加分量实现的变换相当于一种经典计算。当所有这些经典计算同时完成,并按一定的概率振幅叠加起来,给出输出结果,这种计算就称为量子并行计算。并行处理大大提高量子计算机的效率,使其可以完成经典计算机无法完成的工作。
在这一技术进入实际应用领域之前,科学家必须阻隔那些能使量子状态崩溃的外界因素。由于量子计算的优越性主要就体现在量子并行处理上,无论是量子并行计算还是量子模拟,都本质性地利用了量子“相干性”。失去了量子相干性,量子计算的优越性就消失殆尽。但不幸的是,在实际系统中,量子相干性却很难保持。因为在量子计算机中,执行运算的量子比特不是一个孤立系统,它会与外部环境发生相互作用,其作用结果即导致消相干。消相干(即量子相干性的衰减)主要源于系统和外界环境的耦合。
这无疑是对量子计算机信奉者的当头一棒。相干性的丢失就会导致运算结果出错,这就是量子错误。除了消相干会不可避免地导致量子错误外,其他一些技术原因,例如量子门操作中的误差等,也会导致量子错误。因此,现在的关键问题就变成:在门操作和量子存储都有可能出错的前提下,如何进行可靠的量子运算?
索尔在此方向取得一个本质性的进展,这就是量子纠错的思想。量子纠错是经典纠错码的量子类比。在三四十年代,经典计算机刚提出时,也曾遇到类似的法难。当时就有人指出,计算机中,如果任意一步门操作或存储发生错误,就会导致最后的运算结果面目全非,而在实际中,随机的出错总是不可避免的。当时解决此问题,采取的是“冗余编码方案”:假设输入1比特信号0,通过引入冗余度将其编码为3比特信号000,如果在存储中,3比特中任一比特发生错误,如变成001,则可以通过比较这3比特信号,按照少数服从多数的原则,找到出错的比特,并将其纠正到正确信号000。这样计算机就然能进行可靠运算。索尔的编码就是这种思想的量子类比,但在量子情况下,问题变得复杂得多。量子运算不再限于0和1态,而是二维态空间中的所有态,因此量子错误的自由度也就大得多。
郭光灿说,另一个更本质的原因是,量子力学中有个著名的“量子态不可克隆定理”,它认为,对一个任意的量子态进行复制是不可能的。这些困难表明,任何经典码的简单类比,在量子力学中是行不通的。但索尔给出了一个完全新颖的编码,他利用9个量子比特来编码1比特信息,通过此编码,可纠正9个比特中任一比特所有可能的量子错误。索尔的结果极其振奋人心,在此基础上,各种量子纠错码接二连三地被提出。
最新结果表明,只要门操作和线路传输中的错误率低于一定的阈值,就可以进行任意精度的量子计算。这显示,在通往量子计算的征途上,已不存在任何原则性的障碍。